Text copied to clipboard!

Заглавие

Text copied to clipboard!

Hadoop разработчик

Описание

Text copied to clipboard!
Търсим опитен Hadoop разработчик, който да се присъедини към нашия екип и да участва в проекти, свързани с обработка на големи обеми от данни. Кандидатът трябва да има задълбочени познания в областта на разпределените системи, програмиране и анализ на данни. Ролята изисква умения за проектиране, разработване и поддръжка на мащабируеми и надеждни решения, използващи Hadoop екосистемата. Като Hadoop разработчик, ще работите в тясно сътрудничество с екипи от анализатори, инженери и архитекти, за да изградите ефективни решения за събиране, съхранение и анализ на данни. Ще използвате технологии като HDFS, MapReduce, Hive, Pig, Spark и други компоненти от Hadoop екосистемата. Ще участвате в целия жизнен цикъл на разработката – от събиране на изисквания до внедряване и поддръжка. Идеалният кандидат трябва да има опит с Java, Scala или Python, както и с инструменти за управление на данни и ETL процеси. Очаква се да имате аналитично мислене, внимание към детайла и способност за решаване на сложни проблеми. Опит с облачни платформи като AWS, Azure или Google Cloud ще се счита за предимство. Ние предлагаме конкурентно възнаграждение, възможности за професионално развитие и работа в динамична и иновативна среда. Ако сте мотивиран специалист с интерес към големите данни и желаете да работите по предизвикателни проекти, ще се радваме да се свържете с нас.

Отговорности

Text copied to clipboard!
  • Разработване и поддръжка на Hadoop базирани приложения
  • Проектиране на архитектура за обработка на големи обеми от данни
  • Използване на компоненти като Hive, Pig, Spark и HBase
  • Оптимизация на MapReduce задачи и ETL процеси
  • Интеграция на Hadoop решения с други системи и бази данни
  • Работа в екип с анализатори и инженери за реализиране на бизнес изисквания
  • Мониторинг и отстраняване на проблеми в Hadoop клъстери
  • Поддържане на документация и стандарти за кодиране
  • Участие в планиране и оценка на проекти
  • Обучение и подпомагане на по-малко опитни членове на екипа

Изисквания

Text copied to clipboard!
  • Бакалавърска или магистърска степен в областта на компютърните науки или сходна специалност
  • Минимум 2 години опит с Hadoop и свързани технологии
  • Добри познания по Java, Scala или Python
  • Опит с HDFS, MapReduce, Hive, Pig, Spark
  • Разбиране на концепции за разпределени системи и паралелна обработка
  • Опит с инструменти за ETL и управление на данни
  • Умения за работа в екип и комуникация
  • Аналитично мислене и способност за решаване на проблеми
  • Предимство е опит с облачни платформи (AWS, Azure, GCP)
  • Желание за учене и развитие в областта на Big Data

Потенциални въпроси за интервю

Text copied to clipboard!
  • Какъв е вашият опит с Hadoop и свързаните технологии?
  • С кои езици за програмиране работите най-често?
  • Работили ли сте с Spark или Hive? Опишете конкретен проект.
  • Как подхождате към оптимизация на MapReduce задачи?
  • Имате ли опит с облачни платформи и какви?
  • Какви предизвикателства сте срещали при работа с големи обеми от данни?
  • Какви инструменти използвате за мониторинг и отстраняване на проблеми?
  • Как поддържате документацията на вашите проекти?
  • Какво ви мотивира да работите в сферата на Big Data?
  • Как се справяте с работа в екип и споделяне на знания?